Gemma2 チューニング資料
どうやるねんコレクション
そもそも
? 学習したものはどう書き出す?
? accelerate や bitsandbytes どう使うん?
? vLLM で動かすには?
? GGUF 形式にするには?
SFT
TRL に SFTTrainer もある
RHLF
記事
実装例
DPO
いいけどメモリ全然足らない
HuggingFace モデル使うには hf:// でいける
code:load.py
preprocessor = keras_nlp.models.GemmaCausalLMPreprocessor.from_preset(
"hf://google/gemma-2-2b", sequence_length=512
)
gemma_lm = keras_nlp.models.GemmaCausalLM.from_preset(
"hf://google/gemma-2-2b", preprocessor=preprocessor
)
gemma_lm.summary()